es
Ranking de Productos de IA
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
Inicio
Noticias de IA
AI Diario
Guías de Monetización
Tutoriales de IA
Navegación de Herramientas de IA
Biblioteca de Productos de IA
es
Ranking de Productos de IA
Busca la dinámica global de productos de IA
Busca información global de IA y descubre nuevas oportunidades de IA
Información de Noticias
Aplicaciones de Productos
Casos de Monetización
Tutoriales de IA
Tipo :
Información de Noticias
Aplicaciones de Productos
Casos de Monetización
Tutoriales de IA
2024-07-24 09:40:45
.
AIbase
.
10.5k
¡Del equipo de investigación de Apple! LazyLLM: Mejora la eficiencia de la inferencia de texto largo en LLM
Apple y Meta AI presentan conjuntamente la nueva tecnología 'LazyLLM', diseñada para mejorar la eficiencia de los modelos de lenguaje grandes en la inferencia de textos largos. Las arquitecturas Transformer modernas enfrentan problemas de lentitud al procesar prompts largos, especialmente debido a la complejidad computacional que aumenta linealmente. Para abordar esto, LazyLLM emplea una estrategia de selección dinámica de tokens importantes, reduciendo la carga computacional mientras mantiene la precisión del modelo. Su mecanismo eficiente incluye la evaluación de las puntuaciones de atención de capas anteriores, la reducción dinámica del costo computacional, la restauración dinámica de los tokens podados y el uso de Aux Cache.